지역별 뉴스를 확인하세요.

많이 본 뉴스

광고닫기

[기고] 불붙은 인공지능(AI) 개발 경쟁과 위험성

인터넷 백과사전인 위키피디아에서 올해 가장 조회 수가 많았던 단어는 ‘챗GPT’였다. 그리고 메리엄-웹스터 사전은 ‘진정성(authentic)’, 케임브리지 사전은 ‘환각(hallucinate)’, 콜린스 사전은 ‘AI’를 각각 올해의 단어로 선정했다. 모두 생성 AI와 연관된 단어들로 AI챗봇의 인기를 보여준다.     AI는 여러 단계를 거쳐 특정 역할을 수행할 수 있도록 개발된다. 데이터를 수집해 신경망에 입력하고 학습시켜 신경망이 연속적으로 다음 단어를 예측할 수 있게 하는 사전 훈련 과정, 모델을 유용하게 혹은 특정하게 변환하는 세부 조정 과정이 포함된다. 이런 과정들을 통해 AI는 챗봇, 혹은 의사 도우미, 군사전략가, 식당 도우미 등과 같은 특정 역할의 AI로 진화한다.   최근에는 이 과정에 ‘AI 해석가능성(Interpretability)’이 새롭게 추가됐다. 이는 모델 내부의 구성과 AI가 질문이나 프롬프트에 어떤 대답을 하는지, 어떻게 작동하는지를 파악하려는 시도다. 배경을 이해하면 AI가 거짓말이나 환각을 할 때 대처하기 쉽다는 것이다.     AI 위험성에 대한 불안은 오픈AI 최고경영자 샘 알트만의 해고와 복귀 사건에서도 드러났다. 2015년 설립된 오픈AI의 창립 목적은 ‘인류에 이로운 AI 시스템 구축’이다. 창립 멤버 중 한 명인 일론 머스크는 2018년 AI가 인류의 존재적 위협이 될 것이라며 불만을 품고 회사를 떠났다. 이듬해 최고경영자로 선임된 알트만은 AI 개발에 수백억 달러의 자금이 필요하자 회사를 비영리이면서도 이윤을 추구하는 이중 구조로 재편했다. 결국 이사회는 창립 목적을 준수한다는 이유로 알트만을 해고했지만, 그는 직원들 지원 덕분에 4일 만에 복귀했다.     챗GPT는 오픈AI 경영진이 최초 출시자가 되려는 욕망으로 출시 2주 전 갑자기 공개가 결정됐다. 그래서 옛날 버전(GPT 3.5)으로 출시해 반응을 확인하려고 했다. 또 연구용 AI로 포장하려고 ‘저강도 연구의 맛보기(low key search preview)’라 설명했다. 공개 직전에 그래픽 사용자 인터페이스(GUI)를 부착하여 사용이 편리하도록 만들고 이름을 챗GPT로 바꾼 결과는 대성공이었고, 오픈AI는 AI 개발 경쟁의 중심에 서게 됐다.     메타는 작년 1월 AI 중심으로 회사 일부를 재정비하고 챗GPT 보다 3개월 앞서 블렌더봇(Blender Bot)을 만들었지만 실패했다. 또한 챗GPT 공개 2주 전에 출시한 갈락티카(Galactica)는 환각 현상으로 인해 3일 만에 중단됐다. 그 후 올해 7월, 대용량 모델인 라마2를 개발해 외부 연구원들에게 배포하고 상업적으로 사용할 수 있게 했다.   마이크로소프트(MS) 최고경영자 사티아 나델라는 생성 AI의 가능성을 일찍 알아보고 오픈 AI에 10억 달러를 투자했다. 그 후 총 130억 달러의 투자 결정도 챗GPT-4가 컴퓨터 역사상 중요한 발전이며 MS가 이런 흐름의 선두에 설 것이란 확신에서 비롯됐다. 나델라는 지난 2월 7일 챗GPT를 탑재한 빙 챗봇을 공개했고, MS 주가는 곧바로 5% 급등했다.     구글은 MS의 빙 챗봇 공개를 미리 알고 하루 전인 6일 급하게 바드 챗봇을 출시했다. 그러나 바드가 틀린 정보를 말한 결과로 인해 주가가 하루 만에 8% 급락하기도 했다. 이에 구글은 지난 4월 구글브레인과 딥마인드 연구소를 통합하여 7개월 만에 챗GPT 보다 우수하다는 제미니니를 출시했다. 제미니니는 GPT나 라마와 같은 대용량 언어 모델의 이름으로 텍스트, 이미지, 음성, 영상 등 다양한 형태의 데이터를 동시에 다루거나 생성하는 다양식(multimodal) 모델이다.   현재 테크 기업들은 AI의 위험성에 대한 우려보다 주도권, 자존심, 이익을 우선해 개발에 속도를 내고 있다. AI 개발에는 사회윤리적 기준에 부합해야 한다는 ‘효과적인 이타주의(Effective Altruism)’와 신속한 AI 혁신의 잠재력을 중시하는 ‘효과적인 가속주의(Effective Accelerationism)’라는 두 가지 상충하는 접근 방식이 있다. 특히 Z세대를 중심으로 ‘효과적인 가속주의’가 힘을 얻고 있어 AI의 놀라운 역할 및 위험성에 대한 이해가 더욱 절실한 시점이다.  정 레지나기고 인공지능 위험성 ai 위험성 ai 개발 케임브리지 사전

2023-12-19

AI 위험성 “핵무기에 비견”…과학자·경영자 350여명 경고

급속도로 발전하는 AI의 위험성에 대해 IT기업 경영자와 과학자 350여명이 경고의 목소리를 냈다.   월스트리트저널(WSJ)은 30일 “비영리단체 ‘AI안전센터’(CAIS)가 인류의 절멸 가능성까지 언급하면서 AI 기술 통제 필요성을 주장하는 성명을 발표했다”고 보도했다.   CAIS는 성명에서 “AI로 인한 인류 절멸의 위험성을 낮추는 것을 글로벌 차원에서 우선순위로 삼아야 한다”고 촉구했으며, AI의 위험성을 핵무기와 신종 전염병에 비견했다.   또 성명은 “AI 기술 위험성에 대해 훨씬 다양한 분야에서 해결책이 논의돼야 한다”며 공개적인 토론의 필요성을 강조했다.     이 성명에는 챗GPT의 창시자 샘 올트먼 오픈AI CEO와 미라 무라티 CTO가 서명했으며, 케빈 스콧 마이크로소프트(MS) CTO와 구글의 AI 분야 책임자인 릴라 이브라힘, 메리언 로저스도 이름을 올리는 등 각 분야 전문가들이 동참했다.   앞서 올트먼 오픈AI CEO의 경우 AI의 잠재적 위험을 통제하고 부작용을 막기 위해 국제원자력기구(IAEA) 같은 국제기구가 필요하다는 방안을 제시했다.   이달 초에는 백악관이 오픈AI와 구글 등 핵심 기업을 초청해 카멀라 해리스 부통령 주관으로 대책 회의를 열었고, 이어 열린 상하원 청문회에서는 AI의 위험을 완화하기 위해 정부 차원의 규제와 개입, 국제 표준 마련이 필요하다는 주장이 제기됐다.   한편 CAIS는 서명에 동참할 전문가들을 추가 모집하고 있다.   윤지혜 기자위험성 핵무기 ai 위험성 it기업 경영자 과학자 350여명

2023-05-30

많이 본 뉴스




실시간 뉴스